เกินจุดหยุดการรู้จำ
โมเดลภาษาขนาดใหญ่มีศักยภาพสูง แต่กลับมีข้อจำกัดพื้นฐานประการหนึ่ง นั่นคือ จุดหยุดการรู้จำเพื่อสร้างระบบปัญญาประดิษฐ์ที่เชื่อถือได้ เราต้องเติมช่องว่างระหว่างข้อมูลการฝึกที่เป็นแบบคงที่ กับข้อมูลจริงในโลกแห่งความเป็นจริงที่เปลี่ยนแปลงตลอดเวลา
1. ปัญหาจุดหยุดการรู้จำ (อะไร)
โมเดลภาษาขนาดใหญ่ถูกฝึกโดยใช้ชุดข้อมูลขนาดใหญ่ แต่เป็นข้อมูลที่ไม่เปลี่ยนแปลง และมีวันสิ้นสุดที่แน่นอน (เช่น ข้อจำกัดก่อนเดือนกันยายน 2021 ของ GPT-4) ดังนั้น โมเดลเหล่านี้จึงไม่สามารถตอบคำถามเกี่ยวกับเหตุการณ์ล่าสุด การอัปเดตซอฟต์แวร์ หรือข้อมูลส่วนตัวที่สร้างขึ้นหลังจากช่วงเวลาการฝึกอบรมได้
2. การหลอกลวงเทียบกับความจริง (ทำไม)
เมื่อถูกถามเกี่ยวกับข้อมูลที่ไม่รู้จักหรือข้อมูลที่อยู่หลังจุดหยุดการรู้จำ โมเดลจะมัก หลอกลวง—สร้างข้อเท็จจริงที่ฟังดูสมเหตุสมผล แต่เป็นเรื่องที่ผิดทั้งหมด เพื่อให้ตอบโจทย์คำขอ ทางออกคือ การยึดมั่นการให้บริบทที่ตรวจสอบได้และเป็นปัจจุบันจากแหล่งข้อมูลภายนอก พร้อมก่อนที่โมเดลจะสร้างคำตอบ
3. RAG เทียบกับการปรับแต่งแบบเฉพาะเจาะจง (อย่างไร)
- การปรับแต่งแบบเฉพาะเจาะจง: การอัปเดตค่าภายในของโมเดลนั้นใช้ทรัพยากรคอมพิวเตอร์มาก ช้า และทำให้ความรู้กลายเป็นแบบคงที่ ซึ่งจะเสื่อมค่าไปอย่างรวดเร็วอีกครั้ง
- RAG (การสร้างข้อความเสริมจากการดึงข้อมูล): ประหยัดต้นทุนสูง ดึงข้อมูลที่เกี่ยวข้องได้ทันที และแทรกเข้าไปในคำขอ ทำให้มั่นใจได้ว่าข้อมูลทันสมัย และสามารถอัปเดตฐานข้อมูลได้ง่ายโดยไม่ต้องฝึกใหม่
Preprocessing (Cleaning and chunking the manual text into smaller, searchable segments before embedding).
"Answer only using the provided context. If the answer is not in the context, state that you do not know."